home *** CD-ROM | disk | FTP | other *** search
/ Usenet 1993 July / InfoMagic USENET CD-ROM July 1993.ISO / answers / net-privacy / part1 next >
Encoding:
Internet Message Format  |  1993-06-18  |  58.2 KB

  1. Path: senator-bedfellow.mit.edu!enterpoop.mit.edu!pad-thai.aktis.com!pad-thai.aktis.com!not-for-mail
  2. From: ld231782@longs.lance.colostate.edu (L. Detweiler)
  3. Newsgroups: sci.crypt,comp.society.privacy,alt.privacy,sci.answers,comp.answers,alt.answers,news.answers
  4. Subject: Privacy & Anonymity on the Internet FAQ (1 of 3)
  5. Supersedes: <net-privacy/part1_738648006@GZA.COM>
  6. Followup-To: poster
  7. Date: 19 Jun 1993 00:00:14 -0400
  8. Organization: TMP Enterprises
  9. Lines: 1228
  10. Sender: faqserv@GZA.COM
  11. Approved: news-answers-request@MIT.Edu
  12. Expires: 24 Jul 1993 04:00:05 GMT
  13. Message-ID: <net-privacy/part1_740462405@GZA.COM>
  14. Reply-To: ld231782@longs.lance.colostate.edu
  15. NNTP-Posting-Host: pad-thai.aktis.com
  16. Summary: Email and account privacy, anonymous mailing and posting, 
  17.  encryption, and other privacy and rights issues associated with use
  18.  of the Internet and global networks in general.
  19. X-Last-Updated: 1993/05/07
  20. Xref: senator-bedfellow.mit.edu sci.crypt:17436 comp.society.privacy:1267 alt.privacy:7403 sci.answers:253 comp.answers:1050 alt.answers:436 news.answers:9549
  21.  
  22. Archive-name: net-privacy/part1
  23. Last-modified: 1993/5/7
  24. Version: 3.0
  25.  
  26.  
  27.  
  28. IDENTITY, PRIVACY, and ANONYMITY on the INTERNET
  29. ================================================
  30.  
  31. (c) Copyright 1993 L. Detweiler.  Not for commercial use except by
  32.   permission from author, otherwise may be freely copied.  Not to be
  33.   altered.  Please credit if quoted.
  34.  
  35. SUMMARY
  36. =======
  37.  
  38. Information on email and account privacy, anonymous mailing and 
  39. posting, encryption, and other privacy and rights issues associated
  40. with use of the Internet and global networks in general.
  41.  
  42. (Search for <#.#> for exact section. Search for '_' (underline) for
  43. next section.)
  44.  
  45. PART 1
  46. ====== (this file)
  47.  
  48.  
  49. Identity
  50. --------
  51. <1.1> What is `identity' on the internet?
  52. <1.2> Why is identity (un)important on the internet?
  53. <1.3> How does my email address (not) identify me and my background?
  54. <1.4> How can I find out more about somebody from their email address?
  55. <1.5> Why is identification (un)stable on the internet? 
  56. <1.6> What is the future of identification on the internet?
  57.  
  58. Privacy
  59. -------
  60. <2.1> What is `privacy' on the internet?
  61. <2.2> Why is privacy (un)important on the internet?
  62. <2.3> How (in)secure are internet networks?
  63. <2.4> How (in)secure is my account?
  64. <2.5> How (in)secure are my files and directories?
  65. <2.6> How (in)secure is X Windows?
  66. <2.7> How (in)secure is my email?
  67. <2.8> How am I (not) liable for my email and postings?
  68. <2.9> How do I provide more/less information to others on my identity?
  69. <2.10> Who is my sysadmin?  What does s/he know about me?
  70. <2.11> Why is privacy (un)stable on the internet?
  71. <2.12> What is the future of privacy on the internet?
  72.  
  73. Anonymity
  74. ---------
  75. <3.1> What is `anonymity' on the internet?
  76. <3.2> Why is `anonymity' (un)important on the internet?
  77. <3.3> How can anonymity be protected on the internet?
  78. <3.4> What is `anonymous mail'?
  79. <3.5> What is `anonymous posting'?
  80. <3.6> Why is anonymity (un)stable on the internet?
  81. <3.7> What is the future of anonymity on the internet?
  82.  
  83. PART 2
  84. ====== (next file)
  85.  
  86. Issues
  87. ------
  88.  
  89. <4.1> What is the Electronic Frontier Foundation (EFF)?
  90. <4.2> Who are Computer Professionals for Social Responsibility (CPSR)?
  91. <4.3> What was `Operation Sundevil' and the Steve Jackson Game case?
  92. <4.4> What is Integrated Services Digital Network (ISDN)?
  93. <4.5> What is the National Research and Education Network (NREN)?
  94. <4.6> What is the FBI's proposed Digital Telephony Act?
  95. <4.7> What is U.S. policy on freedom/restriction of strong encryption?
  96. <4.8> What other U.S. legislation is related to privacy?
  97. <4.9> What are references on rights in cyberspace?
  98. <4.10> What is the Computers and Academic Freedom (CAF) archive?
  99.  
  100. Clipper
  101. -------
  102.  
  103. <5.1> What is the Clipper Chip Initiative?
  104. <5.2> How does Clipper blunt `cryptography's dual-edge sword'?
  105. <5.3> Why are technical details of the Clipper chip being kept secret?
  106. <5.4> Who was consulted in the development of the Clipper chip?
  107. <5.5> How is commerical use/export of Clipper chips regulated?
  108. <5.6> What are references on the Clipper Chip?
  109. <5.7> What are compliments/criticisms of the Clipper chip?
  110. <5.8> What are compliments/criticisms of the Clipper Initiative?
  111. <5.9> What are compliments/criticisms of the Clipper announcement?
  112. <5.10> Where does Clipper fit in U.S. cryptographic technology policy?
  113.  
  114. PART 3
  115. ====== (last file)
  116.  
  117. Resources
  118. ---------
  119.  
  120. <6.1> What UNIX programs are related to privacy?
  121. <6.2> How can I learn about or use cryptography?
  122. <6.3> What is the cypherpunks mailing list?
  123. <6.4> What are some privacy-related newsgroups?  FAQs?
  124. <6.5> What is internet Privacy Enhanced Mail (PEM)?
  125. <6.6> What are other Request For Comments (RFCs) related to privacy?
  126. <6.7> How can I run an anonymous remailer?
  127. <6.8> What are references on privacy in email?
  128. <6.9> What are some email, Usenet, and internet use policies?
  129.  
  130. Miscellaneous
  131. -------------
  132.  
  133. <7.1> What is ``digital cash''?
  134. <7.2> What is a ``hacker'' or ``cracker''?
  135. <7.3> What is a ``cypherpunk''?
  136. <7.4> What is `steganography' and anonymous pools?
  137. <7.5> What is `security through obscurity'?
  138. <7.6> What are `identity daemons'?
  139. <7.7> What standards are needed to guard electronic privacy?
  140.  
  141. Footnotes
  142. ---------
  143.  
  144. <8.1> What is the background behind the Internet?
  145. <8.2> How is Internet `anarchy' like the English language?
  146. <8.3> Most Wanted list
  147. <8.4> Change history
  148.  
  149. * * *
  150.  
  151.  
  152. IDENTITY
  153. ========
  154.  
  155. _____
  156. <1.1> What is `identity' on the internet?
  157.  
  158.   Generally, today people's `identity' on the internet is primarily
  159.   determined by their email address in the sense that this is their
  160.   most unchanging 'face' in the electronic realm.   This is your
  161.   login name qualified by the complete address domain information,
  162.   for example ``ld231782@longs.lance.colostate.edu''.  People see
  163.   this address when receiving mail or reading USENET posts from you
  164.   and in other situations where programs record usage.  Some obsolete
  165.   forms of addresses (such as BITNET) still persist.
  166.  
  167.   In email messages, additional information on the path that a message
  168.   takes is prepended to the message received by the recipient.  This
  169.   information identifies the chain of hosts involved in the
  170.   transmission and is a very accurate trace of its origination.  This
  171.   type of identify-and-forward protocol is also used in the USENET
  172.   protocol to a lesser extent.  Forging these fields requires
  173.   corrupted mailing software at sites involved in the forwarding and
  174.   is very uncommon.  Not so uncommon is forging the chain at the
  175.   origination point, so that all initial sites in the list are faked
  176.   at the time the message is created.  Tracing these messages can be
  177.   difficult or impossible when the initial faked fields are names of
  178.   real machines and represent real transfer routes.
  179.  
  180. _____
  181. <1.2> Why is identity (un)important on the internet?
  182.  
  183.   The concept of identity is closely intertwined with communication,
  184.   privacy, and security, which in turn are all critical aspects of
  185.   computer networks. For example, the convenience of communication
  186.   afforded by email would be impossible without conventions for
  187.   identification.  But there are many potential abuses of identity
  188.   possible that can have very severe consequences, with massive
  189.   computer networks at the forefront of the issue, which can
  190.   potentially either exacerbate or solve these problems.
  191.  
  192.   Verifying that an identity is correct is called `authentication',
  193.   and one classic example of the problems associated with it is
  194.   H.G. Well's ``War of the Worlds'' science fiction story adapted to a
  195. radio broadcast that fooled
  196.   segments of the population into thinking that an alien invasion was
  197.   in progress.  Hoaxes of this order are not uncommon on Usenet and
  198.   forged identities makes them more insidious.  People and their
  199.   reputations can be assaulted by forgery.
  200.  
  201.   However, the fluidity of identity on the internet is for some one of
  202.   its most attractive features. Identity is just as useful as it is
  203.   harmful.  A professor might carefully explain a topic until he
  204.   finds he is talking to an undergraduate. A person of a particular
  205.   occupation may be able to converse with others who might normally
  206.   shun him.  Some prejudices are erased, but, on the other hand, many
  207.   prejudices are useful!  A scientist might argue he can better
  208.   evaluate the findings of a paper as a reviewer if he knows more
  209.   about the authors.  Likewise, he may be more likely to reject it
  210.   based on unfair or irrelevant criteria.  On the other side of the
  211.   connection,  the author may find identities of reviewers useful in
  212.   exerting pressure for acceptance.
  213.  
  214.   Identity is especially crucial in establishing and regulating
  215.   `credit' (not necessarily financial) and `ownership' and `usage'. 
  216.   Many functions in society demand reliable and accurate techniques
  217.   for identification. Heavy reliance will be placed on digital
  218.   authentication as global economies become increasingly electronic. 
  219.   Many government functions and services are based on identification,
  220.   and law enforcement frequently hinges on it.  Hence, employees of
  221.   many government organizations push toward stronger identification
  222.   structures.  But when does identification invade privacy?
  223.  
  224.   The growth of the internet is provoking social forces of massive
  225.   proportions. Decisions made now on issues of identity will affect
  226.   many future users, especially as the network becomes increasingly
  227.   global, universal, widespread, and entrenched; and the positive or
  228.   adverse affects of these actions, intended and inadvertent,  will
  229.   literally be magnified exponentially.
  230.  
  231. _____
  232. <1.3> How does my email address (not) identify me and my background?
  233.  
  234.   Your email address may contain information that influences people's
  235.   perceptions of your background.  The address may `identify' you as
  236.   from a department at a particular university, an employee at a
  237.   company, or a government worker.  It may contain your last name,
  238.   initials, or cryptic identification codes independent of both.  In
  239.   the US some are based on parts of social security numbers.  Others
  240.   are in the form 'u2338' where the number is incremented in the
  241.   order that new users are added to the system.
  242.  
  243.   Standard internet addresses  also can contain information  on your
  244.   broad geographical location or nationhood.  However, none of this
  245.   information is guaranteed to be correct or be there at all.  The
  246.   fields in the domain qualification of the username are based on
  247.   rather arbitrary organization, such as (mostly invisible) network
  248.   cabling distributions.  The only point to make is that early fields
  249.   in the address are more specific (such as specific computer names
  250.   or local networks) and the later ones the most general (such as
  251.   continental domains).  Typically the first field is the name of the
  252.   computer receiving mail.
  253.  
  254.   Gleaning information from the email address alone is sometimes an
  255.   inspired art or an inconsistent and futile exercise.  (For more
  256.   information, see the FAQs on email  addresses and known
  257.   geographical distributions below.)  However, UNIX utilities exist
  258.   to aid in the quest (see the question on this).
  259.  
  260.   Common Suffixes
  261.   ---------------
  262.  
  263.   .us    United States
  264.   .uk    United Kingdom
  265.   .ca    Canada
  266.   .fi    Finland
  267.   .au    Australia
  268.  
  269.   .edu   university or college
  270.   .com   commercial organization
  271.   .org   'other' (e.g. nonprofit organization)
  272.   .gov   government
  273.   .mil   military site
  274.  
  275. _____
  276. <1.4> How can I find out more about somebody with a given email address?
  277.  
  278.   One simple way is to send email to that address, asking.  Another
  279.   way is to send mail to the postmaster at that address (i.e.
  280.   postmaster@address), although the postmaster's job is more to help
  281.   find user ID's of particular people given their real name and solve
  282.   mail routing problems.  The sysadmin (i.e. `root@address') may also
  283.   be able to supply information.  Users with related email address
  284.   may have information.  However, all of these methods rely on the
  285.   time and patience of others so use them minimally.
  286.  
  287.   One of the most basic tools for determining identity over the
  288.   internet is the UNIX utility 'finger'.  The basic syntax is:
  289.  
  290.     finger user@here.there.everywhere
  291.  
  292.   This utility uses communication protocols to query the computer
  293.   named in the address for information on the user named.  The
  294.   response is generated completely by the receiving computer and may
  295.   be in any format.  Possible responses are as follows:
  296.  
  297.   - A message `unknown host' meaning some aspect of the address is
  298.     incorrect, two lines with no information and '???'.
  299.   
  300.   - A message 'In real life: ???' in which case the receiving computer
  301.     could not find any kind of a match on the username. The finger
  302.     utility may return this response in other situations.
  303.   
  304.   - A listing of information associated with multiple users. Some
  305.     computers will search only for matching user IDs, others will
  306.     attempt to find the username you specified as a substring of all
  307.     actual full names of users kept in a local database.
  308.   
  309.   At some sites 'finger' can be used to get a list of all users on the
  310.   system with a `finger @address'.  In general this is often
  311.   considered weak security, however, because `attackers' know valid
  312.   user ID's to `crack' passwords.
  313.  
  314.         More information on the fields returned by `finger' is given below. 
  315.         More information on `finger' and locating people's email addresses
  316.         is given in the email FAQ (such as the WHOIS lookup utility).  Just
  317.         as you can use these means to find out about others, they can use
  318.         them to find out about you.  You can `finger' yourself to find out
  319.         what is publicly reported by your UNIX system about you.  Be
  320.         careful when modifying `finger' data; virtually anyone with
  321.         internet access worldwide can query this information.  In one
  322.         famous case, the New York Times writer J. Markoff uncovered the
  323.         identity of R. Morris, author of the Internet Worm,  through the
  324.         use of `finger' after an anonymous caller slipped by revealing his
  325.         initials which were also his login ID.  See the book Cyberpunk by
  326.         K. Hafner and J. Markoff.
  327.  
  328. _____
  329. <1.5> Why is identification (un)stable on the internet?
  330.  
  331.   Generally, identity is an amorphous and almost nonexistent concept
  332.   on the Internet for a variety of reasons.  One is the inherent
  333.   fluidity of `cyberspace' where people emerge and submerge
  334.   frequently, and absences are not readily noted in the `community'. 
  335.   Most people remember faces and voices, the primary means of casual
  336.   identification in the 'real world'.  The arbitary and cryptic 
  337.   sequences of letters and digits comprising most email addresses are
  338.   not particularly noticeable or memorable and far from a unique
  339.   identification of an individual, who may use multiple accounts on
  340.   multiple machines anywhere in the world.
  341.  
  342.   Currently internet users do not really have any great assurances
  343.   that the messages in email and USENET are from who they appear to
  344.   be. A person's mailing address is far from an identification of an
  345.   individual.  
  346.   
  347.   - Anyone with access to the account, e.g. they know the password,
  348.     either legitimately or otherwise, can send mail with that address
  349.     in the From: line.
  350.   
  351.   - Email addresses for an individual tend to change frequently as
  352.     they switch jobs or make moves inside their organizations. 
  353.  
  354.   - As part of current mailing protocol standards, forging the From:
  355.     line in mail messages is a fairly trivial operation for many
  356.     hackers.
  357.     
  358.   The status and path information prepended to messages by
  359.   intermediate hosts is generally unforgeable. In general, while
  360.   possible, forgeries are fairly rare on most newsgroups and in
  361.   email.  Besides these pathological cases abve there are many basic
  362.   problems with today's internet protocols affecting identification
  363.   on the internet:
  364.  
  365.   - Internet mail standards, described in RFC-822, are still evolving
  366.     rapidly and not entirely orderly.  For example, standards for
  367.     mail address `munging' or `parsing' tend to vary slightly between
  368.     sites and frequently mean the difference between finding
  369.     addresses and bouncing mail.
  370.   
  371.   - Domain names and computer names are frequently changed at sites,
  372.     and there are delays in the propagation of this data.
  373.   
  374.   - Addresses cannot be resolved when certain critical computers
  375.     crash, such as the receiving computer or other computers involved
  376.     in resolving names into addresses called `nameservers'. 
  377.   
  378.   - A whole slew of problems is associated with  `nameservers'; if
  379.     they are not updated they will not find name addresses, and even
  380.     the operation of what constitutes `updating' has different
  381.     interpretations at different sites.
  382.   
  383.   The current internet mailing and addressing protocols are slightly
  384.   anachronistic in that they were created when the network was
  385.   somewhat obscure and not widespread, with only a fraction of the
  386.   traffic it now sees.  Today a large proportion of internet traffic
  387.   is email, comprising  millions of messages.
  388.  
  389. _____
  390. <1.6> What is the future of identification on the internet?
  391.  
  392.   Some new technologies and standards are introducing facial images
  393.   and voice messages  into mail and these will improve the sense of
  394.   community that comes from the familiarity of identification.
  395.   However, they are not currently widespread, require large amounts
  396.   of data transfer, standardized software, and make some compromises
  397.   in privacy.
  398.  
  399.   Promising new cryptographic techniques may make 'digital signatures'
  400.   and 'digital authentication' common (see below).  Also, the trend
  401.   in USENET standards is toward greater authentication of posted
  402.   information.  On the other hand, advances in ensuring anonymity
  403.   (such as remailers) are forthcoming.  See below.
  404.  
  405.  
  406. PRIVACY
  407. =======
  408.  
  409. _____
  410. <2.1> What is `privacy' on the internet?
  411.  
  412.   Generally, while `privacy' has multiple connotations in society and
  413.   perhaps even more on the internet, in cyberspace most take it to
  414.   mean that you have exclusive use and access to your account and the
  415.   data stored on and and directed to it (such as email), and you do
  416.   not encounter arbitrary restrictions or searches.  In other words, 
  417.   others may obtain data associated with your account, but not
  418.   without your permission.  These ideas are probably both fairly
  419.   limiting and liberal in their scope in what most internet users
  420.   consider their private domains.  Some users don't expect or want
  421.   any privacy, some expect and demand it.
  422.  
  423. _____
  424. <2.2> Why is privacy (un)important on the internet?
  425.  
  426.   This is a somewhat debatable and inflammatory topic, arousing
  427.   passionate opinions.  On the internet, some take privacy for
  428.   granted and are rudely surprised to find it tenuous or nonexistent.
  429.   Most governments have rules that protect privacy (such as the
  430.   illegal search and seizure clause of the U.S. constitution, adopted
  431.   by others) but have many that are antithetical to it (such as laws
  432.   prohibiting secret communications or allowing wiretapping). These
  433.   rules generally carry over to the internet with few specific rules
  434.   governing it.  However, the legal repercussions of the global
  435.   internet are still largely unknown and untested (i.e. no strong
  436.   legal precedents and court cases).  The fact that internet traffic
  437.   frequently passes past international boundaries, and is not
  438.   centrally managed, significantly complicates and strongly
  439.   discourages its regulation.
  440.  
  441. _____
  442. <2.3> How (in)secure are internet networks?
  443.  
  444.   - `Theoretically' people at any site in the chain of sites with
  445.     access to hardware and network media that transmits data over the
  446.     Internet  could potentially monitor or archive it. However, the
  447.     sheer volume and general 'noise' inherent to this data makes
  448.     these scenarios highly improbable, even by government agencies
  449.     with supposedly vast funding and resources.
  450.   
  451.   - Technologies exist to `tap' magnetic fields given off by
  452.     electrical wires without detection.  Less obscurely, any machine
  453.     with a network connection is a potential station for traffic
  454.     detection, but this scenario requires knowledge and access to
  455.     very low-level hardware (the network card) to pursue, if even
  456.     possible.
  457.   
  458.   - A company Network General Inc. is one of many that manufactures
  459.     and markets sophisticated network monitoring tools that can
  460.     'filter' and read packets by arbitrary criteria for
  461.     troubleshooting purposes, but the cost of this type of device is
  462.     prohibitive for casual use.
  463.  
  464.   Known instances of the above types of security  breaches at a major
  465.   scale (such as at network hubs) are very rare. The greatest risks
  466.   tend to emerge locally.  Note that all these approaches are almost
  467.   completely defused with the use of cryptography.
  468.     
  469. _____
  470. <2.4> How (in)secure is my account?
  471.  
  472.   By default, not very.  There are a multitude of factors that may
  473.   reinforce or compromise aspects of your privacy on the internet. 
  474.   First, your account must be secure from other users. The universal
  475.   system is to use a password, but if it is `weak' (i.e. easy to
  476.   guess) this security is significantly diminished.  Somewhat
  477.   surprisingly and frighteningly to some, certain  users of the
  478.   system, particularly the administrator, generally have unlimited
  479.   access regardless of passwords, and may grant that access to
  480.   others.  This means that they may read any file in your account
  481.   without detection.
  482.  
  483.   Furthermore, not universally known, most UNIX systems keep fairly
  484.   extensive accounting records of when and where you logged in, what
  485.   commands you execute, and when they are executed (in fact, login
  486.   information is usually public). Most features of this `auditing' or
  487.    `process accounting' information are enabled by default after the
  488.   initial installation and the system administrator may customize it
  489.   to strengthen or weaken it to satisfy performance or privacy aims. 
  490.   This information is frequently consulted for troubleshooting
  491.   purposes and may otherwise be ignored.  This data tracks
  492.   unsuccessful login attempts and other 'suspicious' activities on
  493.   the system. A traditional part of the UNIX system that tracks user
  494.   commands is easily circumvented by the user with the use of
  495.   symbolic links (described  in 'man ln').
  496.   
  497.         UNIX implementations vary widely particularly in tracking features
  498.         and new sophisticated mechanisms are introduced by companies
  499.         regularly. Typically system adminstrators augment the basic UNIX
  500.         functionality with public-domain programs and locally-developed
  501.         tools for monitoring, and use them only to isolate `suspicious'
  502.         activity as it arises (e.g. remote accesses to the 'passwd' file,
  503.         incorrect login attempts, remote connection attempts, etc.).
  504.   
  505.   Generally, you should expect little privacy on your account for
  506.   various reasons:
  507.   
  508.   - Potentially, every keystroke you type could be intercepted by
  509.     someone else. 
  510.  
  511.   - System administrators make extensive backups that are completely
  512.     invisible to users which may record the states of an account over
  513.     many weeks. 
  514.  
  515.   - Erased files can, under many operating systems, be undeleted. 
  516.  
  517.   - Most automated services keep logs of use for troubleshooting or
  518.     otherwise; for example FTP sites usually log the commands and
  519.     record the domain originations of users, including anonymous
  520.     ones.
  521.  
  522.   - Some software exacerbates these problems.  See the section on
  523.     ``X Windows (in)security''.
  524.  
  525.   Indepedent of malevolent administrators are fellow users, a much
  526.   more commonly harmful threat. There are multiple ways to help
  527.   ensure that your account will not be accessed by others, and
  528.   compromises can often be traced to failures in these guidelines:
  529.  
  530.   - Choose a secure password.  Change it periodically.
  531.   - Make sure to logout always.
  532.   - Do not leave a machine unattended for long.
  533.   - Make sure no one watches you when you type your password.
  534.   - Avoid password references in email.
  535.   - Be conservative in the use of the .rhost file.
  536.   - Use utilities like `xlock' to protect a station, but be
  537.     considerate.
  538.  
  539.   Be wary of situations where you think you should supply your
  540.   password.  There are only several basic situations where UNIX
  541.   prompts you for a password: when you are logging in to a system or
  542.   changing your password.  Situations can arise in which prompts for
  543.   passwords are forged by other users, especially in cases where you
  544.   are talking to them (such as Internet Relay Chat).  Also, be  aware
  545.   that forged login screens are one method to illegitimately obtain 
  546.   passwords.
  547.  
  548.  
  549.   (Thanks to Jim Mattson <mattson@cs.ucsd.edu> for contributions
  550.   here.)
  551.  
  552. _____
  553. <2.5> How (in)secure are my files and directories?
  554.  
  555.   The most important privacy considerations are related to file
  556.   rights, and many lapses can be traced to their misunderstood nature
  557.   or haphazard maintenance. Be aware of the rights associated with
  558.   your files and directories in UNIX. If the `x' (`execute') right on
  559.   your parent directory is off for users, groups, and other, these
  560.   users cannot gain information on anything in your directories. 
  561.   Anything less may allow others to read, change, or even delete
  562.   files in your home directory. The rights on a directory supersede
  563.   the rights associated with files in that directory. For a
  564.   directory, 'x' means that access to the files (or subdirectories)
  565.   in the directory is possible -- if you know their names.  To list
  566.   the contents of the directory, however, requires the 'r' right.
  567.  
  568.   By default most accounts are accessable only to the owner, but the
  569.   initial configuration varies between sites based on administrator
  570.   preference.  The default file mode specifies the initial rights
  571.   associated with newly created files, and can be set in the shell
  572.   with `umask'.  The details of rights implementations tend to vary
  573.   between versions of UNIX.  Consult man pages on `chmod' and `ls'.
  574.  
  575.   Examples
  576.   --------
  577.  
  578.     traver.lance % ls -ld ~
  579.     drwx------ 15 ld231782     1536 Jan 31 21:22 /users/ld231782/
  580.  
  581.   Here is a listing of the rights associated with a user's home
  582.   directory, denoted by `~'.  The columns at the left identify what
  583.   rights are available. The first column identifies the entry as a
  584.   directory, and the next three columns mean that read, write, and
  585.   execute rights, respectively, are permitted for that user.  For
  586.   directories, the `x' right means that contents (file and
  587.   subdirectory names) within that directory can be listed. The
  588.   subsequent columns indicate that no other users have any rights to
  589.   anything in the directory tree originating at that point.  They
  590.   can't even `see' any lower files or subdirectories; the hierarchy
  591.   is completely invisible to them.
  592.  
  593.     traver.lance % ls -l msg
  594.     -rw-r--r--  1 ld231782   35661 Jan 29 23:13 msg
  595.     traver.lance % chmod u=rw,g=,o= msg
  596.     traver.lance % ls -l msg
  597.     -rw-------  1 ld231782   35661 Jan 29 23:13 msg
  598.  
  599.   Here the modes on the file `msg' were changed to take away rights
  600.   from `group' and `other'. 
  601.   
  602.   Note that `ls -l <file>' requires both the 'r' right to get the list
  603.   of files and subdirectories, and the 'x' right to access the files
  604.   and subdirectories in order to get their size, etc. For example,
  605.   suppose the directory `foo' has rights dr--r--r--,  the following
  606.   is possible:
  607.  
  608.     ls foo
  609.  
  610.   These commands would fail independent of file rights:
  611.   
  612.     ls -l foo
  613.     ls -l foo/file
  614.     cat foo/file
  615.     cd foo
  616.  
  617.   If the directory `foo' has rights d--x--x--x, the following are
  618.   possible if it is known beforehand that `foo' contains an 'r'
  619.   readable file named `file':
  620.   
  621.     ls -l foo/file
  622.     cat foo/file
  623.     cd foo
  624.   
  625.   The following commands fail:
  626.   
  627.     ls foo
  628.     ls -l foo
  629.   
  630.  
  631.   (Thanks to Uwe Waldmann <uwe@mpi-sb.mpg.de> for contributions here.)
  632.  
  633. _____
  634. <2.6> How (in)secure is X Windows?
  635.  
  636.   X Windows is the primary software developed by the MIT Athena
  637.   project (1983-1991) which was funded by commercial grants 
  638.   primarily from DEC and IBM to develop
  639.   applications to harness the power of networks in enhancing
  640.   computational tasks, particularly the human-computer interface. 
  641.   The software implements a client-server interface to a computer via
  642.   graphical windows. In this case the `client' is the application
  643.   requesting or utilizing  graphical resources (such as windows or a
  644.   mouse) and the `server' is the machine that provides them.  In many
  645.   situations the client is an application program running on the same
  646.   machine as the server.
  647.  
  648.   The great utility of X Windows comes from its complete dissociation
  649.   of the client and server so that windows may be `broadcast' to a
  650.   server at a remote location from the  client. Unfortunately this
  651.   dynamic power also introduces many deep, intricate, and complicated
  652.   security considerations.  The primary security and privacy issue
  653.   associated with X Windows is that much more sensitive data may be
  654.   sent over a network, and over wider regions, than in the case where
  655.   the human is situated near the host computer.  Currently there is
  656.   no encryption of data such as screen updates and keystrokes in X
  657.   Windows.
  658.  
  659.         Due to either intentional design decisions or unintentional design
  660.         flaws,  early versions of the X Window system are extremely
  661.         insecure (the decision may have been made not to attempt to
  662.         overcome existing vulnerabiliies in the Unix system). Anyone with
  663.         an account on the server machine can disrupt that display or read
  664.         it electronically based on access to the device unix:0.0 by any
  665.         regular user.   There are no protections from this type of access
  666.         in these versions.   The problem arises because the security is
  667.         completely based on machine addresses rather than users, such that
  668.         any user at a `trusted' machine is himself trusted. Quoting from X
  669.         documentation (man Xsecurity):
  670.   
  671.   > Any client on a host in the host access control list is allowed
  672.   > access to the X server. This system can work reasonably well in
  673.   > an environment where everyone trusts everyone, or when only a
  674.   > single person can log into a given machine...This system does not
  675.   > work well when multiple people can log in to a single machine and
  676.   > mutual trust does not exist. 
  677.   
  678.   With the access control list, the `xhost' command may prevent some
  679.   naive attempts (i.e. those other than the direct-access unix:0.0
  680.   evasion); the syntax as typed on the host machine is  ``xhost
  681.   +[name]'' where [name] is the domain name or internet address of an
  682.   authorized client machine. By default clients running nonlocal to
  683.   the host are disabled.  Public domain programs to disrupt a display
  684.   momentarily (such as 'flip' or slowly mirror the screen image, or
  685.   cause pixels to 'melt' down to the bottom) have been circulating on
  686.   the internet among hackers for several years and played as pranks
  687.   on unsuspecting or inexperienced users.  Much more serious security
  688.   breaches are conceivable from similar mechanisms exploiting this
  689.   inherent weaknesses.  (The minimal, easily-bypassed `trusted'
  690.   security mode of `xhost' has been jokingly referred to as ``X
  691.   Hanging Open, Security Terrible.''). 
  692.  
  693.   New versions of the X Window system (X11R5 and higher) by default 
  694.   make server access as secure as the file system using a .Xauthority
  695.   file and 'magic cookies'.  Remote machines must have a code in the
  696.   .Xauthority file in the home directory that matches the code
  697.   allowed by the server.  Many older programs and even new
  698.   vendor-supplied code does not support or is incompatible with
  699.   `magic cookies'. The basic magic cookie mechanism is vulnerable to
  700.   monitoring techniques described earlier because no encryption of
  701.   keys occurs in transmission.  X11R5 also includes other
  702.   sophisticated encryption mechanisms.  Try `man Xsecurity' to find
  703.   out what is supported at your site.  Even though improved security 
  704.   mechanisms have been available in X Windows since ~1990, local
  705.   sites often update this software infrequently because installation
  706.   is extremely complex.
  707.  
  708.  
  709.   (Thanks to Marc Vanheyningen <mvanheyn@whale.cs.indiana.edu>, 
  710.   Jim Mattson <mattson@cs.ucsd.edu>, and Bill Marshall
  711.   <marshall@cs.iastate.edu> for contributions here.)
  712.  
  713. _____
  714. <2.7> How (in)secure is my email?
  715.  
  716.   By default, not very.  The characters that you are reading are
  717.   almost certainly encoded in ASCII, the American Standard Code for
  718.   Information Interchange that maps alphabetic and symbolic
  719.   characters onto numeric codes and vice versa.  Virtually every
  720.   computer system uses this code, and if not, has ways of converting
  721.   to and from it.  When you write a mail message, by default it is
  722.   being sent in ASCII,  and since the standard is virtually
  723.   universal, there is no intrinsic privacy.  Despite milleniums worth
  724.   of accumulated cryptographic knowledge, cryptographic technologies
  725.   are only recently being established that afford high priority to
  726.   privacy as a primary criteria in computer and network design.  Some
  727.   potential pitfalls in privacy are as follows:
  728.  
  729.   - The most serious threats are instances of immature or unscrupulous
  730.     system operators reading private mail in the `spool files' at a
  731.     local site (i.e. at the source or destination of the message),
  732.     such as a university. 
  733.   
  734.   - System administrators may also release files to law enforcement
  735.     agencies, but conventions and protocols for warrants involving
  736.     computer searches have still not been strongly established and
  737.     tested legally.
  738.  
  739.   - Note that bounced messages go to postmasters at a given site in
  740.     their entirety.  This means that if you address mail with an
  741.     incorrect address it has a good chance of being seen by a human
  742.     other than the recipient.
  743.  
  744.   - Typically new user accounts are always set up such that the local
  745.     mail directory is private, but this is not guaranteed and can be
  746.     overridden.
  747.  
  748.   - Finally, be aware that some mailing lists (email addresses of 
  749.     everyone on a list) are actually publicly accessable via mail 
  750.     routing software mechanisms.  This `feature' can be disabled.
  751.  
  752.   Most potential compromises in email privacy can be thoroughly
  753.   avoided with the use of strong end-to-end cryptography, which has
  754.   its own set of caveats (for example, unscrupulous administrators
  755.   may still be a threat if the encryption site is shared or
  756.   nonlocal).  See the sections on ``email privacy'' and ``email
  757.   policies.''
  758.  
  759. _____
  760. <2.8> How am I (not) liable for my email and postings?
  761.  
  762.   As punishment or whatever, your system administrator can revoke
  763.   certain `privileges' such as emailing, USENET posting or reading
  764.   certain groups, file transferring, remote communications, or
  765.   generally any subset of capabilities available from your account. 
  766.   This all is completely at the discretion of the local administrator
  767.   and under the procedures followed at a particular site, which in
  768.   many cases are haphazard and crisis-oriented.  Currently there are
  769.   virtually no widespread, uniform guidelines or procedures  for
  770.   restricting use to any internet services, and local administrators
  771.   are free to make arbitrary decisions on access.
  772.  
  773.   Today punitive measures are regularly applied in various situations.
  774.   In the typical scenario complaint(s) reach a system adminstrator
  775.   regarding abuses by a user, usually but not necessarily preceded by
  776.   complaints to the user in email, regarding that person's
  777.   objectionable email or postings.  `abusive' posters to USENET are
  778.   usually first given admonitions from their system administrators as
  779.   urged by others on the `net'. (The debate persists endlessly on
  780.   many newsgroups whether this is also used  as a questionable means
  781.   of attacking or silencing `harmless crackpots' or censoring
  782.   unpopular opinions.)
  783.   
  784.   System administrators at remote sites regularly cooperate to
  785.   'squelch' severe cases of abuse.  In general, however, by tradition
  786.   Usenet readers are remarkably tolerant of diverse views and uses of
  787.   the system, but a colorful vocabularly of slang helps describe
  788.   their alternatives when this patience is sapped: the options
  789.   wielded by the individual user are to simply advance to the next
  790.   message (referred to as ``hitting the `n' key''), or to `plonk'
  791.   annoying posters (according to the Hacker's Dictionary, the sound a
  792.   jerk makes at the end of a fall to the bottom of a kill file).
  793.  
  794.   In cases where punitive actions are applied, generally system
  795.   administrators are least likely to restrict email.  USENET postings
  796.   are much more commonly restricted, either to individual users or 
  797.   entire groups (such as a university campus).  Restrictions are most
  798.   commonly associated with the following `abuses':
  799.  
  800.   - harassing or threatening notes, `email terrorism'
  801.   - illegal uses, e.g. piracy or propagation of copyrighted material
  802.   - `ad hominem' attacks, i.e. insulting the reputation of the
  803.     poster instead of citing the content of the message
  804.   - intentional or extreme vulgarity and offensiveness
  805.   - inappropriate postings, esp. binary files in regular groups
  806.     `mail-bombing': inundating mail boxes with numerous or massive
  807.     files
  808.  
  809.   Major problems originate from lack of distinctions in private and
  810.   official email or postings.  Most users have internet access via
  811.   accounts at businesses or universities and their activities on the
  812.   internet can be construed as representative of their parent
  813.   organizations. Many people put disclaimers in their `signatures' in
  814.   an attempt dissociate their identity and activities from parent
  815.   organizations as a precaution. A recent visible political case
  816.   involves the privacy of electronic mail  written by White House
  817.   staff members of the Bush administration.  Following are some
  818.   guidelines:
  819.  
  820.   - Acquaint yourself with your company or university policy.
  821.   - If possible, avoid use of your company email address for private
  822.     communication.
  823.   - Use a disclaimer.
  824.   - Keep a low profile (avoid `flamewars' or simply don't post).
  825.   - Avoid posting information that could be  construed to be
  826.     proprietary or `internal'.
  827.  
  828.   The following references are available from ftp.eff.com
  829.   (see also the section on ``internet use policies''):
  830.  
  831.   /pub/academic/banned.1991
  832.   /pub/academic/banned.1992
  833.   ---
  834.     Computer material that was banned/challenged in academia in 1991
  835.     and 1992 including USENET hierarchies.
  836.  
  837.   /pub/academic/cases
  838.   ---
  839.     This is an on-line collection of information about specific
  840.     computers and academic freedom cases. File README is a detailed
  841.     description of the items in the directory.
  842.  
  843.   /pub/academic/faq/netnews.liability
  844.   ---
  845.     Notes on university liability for Usenet.
  846.  
  847. _____
  848. <2.9> How do I provide more/less information to others on my identity?
  849.  
  850.   The public information of your identity and account is mostly
  851.   available though the UNIX utility `finger' described above. 
  852.   
  853.   - You have control over most of this information with the utility
  854.     `chfn', the specifics vary between sites (on some systems use
  855.     `passwd -f').
  856.    
  857.   - You can provide unlimited information in the .plan file which is
  858.     copied directly to the destination during the fingering. 
  859.     
  860.   - A technique that works at some sites allows you to find out who is
  861.     'finger'ing you and even to  vary the .plan file sent to them.
  862.     
  863.   - Your signature is determined by the environment variable SIGNATURE
  864.     
  865.   - USENET signatures are conventionally stored in the .signature file
  866.     in your home directory.
  867.     
  868.   Providing less information on your online identity is more difficult
  869.   and involved.  One approach is to ask your system adminstrator to
  870.   change or delete information about you (such as your full name). 
  871.   You may be able to obtain access on a public account or one from
  872.   someone unrelated to you personally.  You may be able to remotely
  873.   login (via modem or otherwise) to computers that you are not
  874.   physically near.  These are tactics for hiding or masking your
  875.   online activities but nothing is foolproof.  Consult man pages on
  876.   the 'chmod' command and the default file mode.  Generally, files on
  877.   a shared system have good safeguards within the user pool but very
  878.   little protection is possible from corrupt system administrators.
  879.  
  880.   To mask your identity in email or on USENET you can use different
  881.   accounts. More untraceable are new `anonymous posting' and
  882.   remailing services that are very recently being established.  See
  883.   below.
  884.  
  885. ______
  886. <2.10> Who is my sysadmin?  What does s/he know about me?
  887.  
  888.   The requirements and screening for getting a system administration
  889.   job (and thereby access to all information on a system) vary widely
  890.   between sites and are sometimes frighteningly lax, especially at
  891.   universities.  Many UNIX systems at universities are largely
  892.   managed by undergraduates with a background in computing and often
  893.   `hacking'.  In general, commercial and industrial sites are more
  894.   strict on qualifications and background, and government sites are
  895.   extremely strict.
  896.  
  897.   The system adminstrator (root user) can monitor what commands you
  898.   used and at what times.  S/he may have a record (backups) of files
  899.   on your account over a few weeks. S/he can monitor when  you send
  900.   email or post USENET messages, and potentially read either.  S/he
  901.   may have access to records indicating what hosts you are using,
  902.   both locally and elsewhere.  Administrators sometimes employ
  903.   specialized programs to  track `strange' or `unusual' activity,
  904.   which can potentially be misused.
  905.  
  906. ______
  907. <2.11> Why is privacy (un)stable on the internet?
  908.  
  909.   For the numerous reasons listed above, privacy should not be an
  910.   expectation with current use of the internet.  Furthermore, large
  911.   parts of the internet are funded by the U.S. NSF (National Science
  912.   Foundation) which places certain restrictions on its use (such as
  913.   prohibiting commercial use).  Some high-level officials in this and
  914.   other government agencies may be opposed to emerging techniques to
  915.   guarantee privacy (such as encryption and anonymous services).
  916.  
  917.   Historically the major threats to privacy on the internet have been
  918.   local. Perhaps the most common example of this are the widespread
  919.   occurrences of university administrators refusing to carry some
  920.   portion of USENET newsgroups labelled as `pornographic'. The
  921.   `alternative' hierarchy in the USENET system, which has virtually
  922.   no restrictions on propagation and new group creation, is
  923.   frequently targeted (although this material may appear anywhere).
  924.  
  925.   From the global point of view traffic is generally completely
  926.   unimpeded on the internet  and only the most egregious offenders
  927.   are pursued.  For example,  verbatim transcriptions of copyrighted
  928.   material (such as newspaper or magazine articles) are posted to
  929.   USENET with regularity without major consequences (some email
  930.   complaints may ensue).  More astonishing to some is that currently
  931.   significant portions of USENET traffic, and less so internet
  932.   traffic, is comprised of sexually-explicit digitized images almost
  933.   entirely originating from copyrighted material (newsgroups such as
  934.   `alt.sex' regularly have the  highest traffic).
  935.   
  936. ______
  937. <2.12> What is the future of privacy on the internet?
  938.  
  939.   Some argue that the internet currently has an adequate or
  940.   appropriate level of privacy.  Others will argue that as a
  941.   prototype for future global networks it has woefully inadequate
  942.   safeguards.  The internet is growing to become a completely global,
  943.   international superhighway for data, and this traffic will
  944.   inevitably entail data such as voice messages, postal mail, and
  945.   many other items of extremely personal nature. Computer items that
  946.   many people consider completely private (such as their local hard
  947.   drives) will literally be inches from global network connections.
  948.   Also, sensitive industrial and business information is exchanged
  949.   over networks currently and this volume may conceivably merge with
  950.   the internet.
  951.   
  952.   Most would agree that, for these basic but sensitive uses of the
  953.   internet, no significant mechanisms are currently in place to
  954.   ensure much privacy. New standards are calling for uniform
  955.   introduction of `privacy enhanced mail' (PEM) which uses encryption
  956.   technologies to ensure privacy, so that privacy protection is
  957.   automatic, and may significantly improve safeguards.
  958.  
  959.   The same technology that can be extremely destructive to privacy
  960.   (such as with  surreptitious surveilance) can be overwhelmingly
  961.   effective in protecting  it (e.g. with encryption). Some government
  962.   agencies are opposed to unlimited privacy in general, and believe
  963.   that it should lawfully be forfeited in cases of criminal conduct
  964.   (e.g. court-authorized wiretapping).  However, powerful new
  965.   technologies to protect privacy on computers are becoming
  966.   increasingly popular, provoking some to say that ``the cat is out
  967.   of the bag'' and the ``genie can't be put back in the bottle''.  In
  968.   less idiomatic terms, they believe that the spread of strong
  969.   cryptography is already underway will be socially and technically
  970.   unstoppable.
  971.   
  972.   To date, no feasible system that guarantees both secure
  973.   communication and government oversight has been proposed (the two
  974.   goals are largely incompatible). Proposals for ``registration'' of
  975.   secret keys (by D. Denning on sci.crypt, for example) have been met
  976.   with hot controversy at best and ridicule and derision at worst,
  977.   mainly because of concerns for the right to privacy and objections
  978.   of inherent feasibility.  Electronic privacy issues, and
  979.   particularly the proper roles of networks and the internet, will
  980.   foreseeably become highly visible and explosive over the next few
  981.   years.
  982.  
  983.  
  984. ANONYMITY
  985. =========
  986.  
  987. _____
  988. <3.1> What is `anonymity' on the internet?
  989.  
  990.   Simply stated, anonymity is the absence of identity, the
  991.   ultimate in privacy. However, there are several variations on
  992.   this simple theme.  A person may wish to be consistently
  993.   identified by a certain pseudonym or `handle' and establish a
  994.   reputation under it in some area, providing pseudo-anonymity.
  995.   A person may wish to be completely untraceable for a single
  996.   one-way message (a sort of `hit-and-run'). Or, a person may
  997.   wish to be openly anonymous but carry on a conversation with
  998.   others (with either known or anonymous identities) via an
  999.   `anonymous return address'.  A user may wish to appear as a
  1000.   `regular user' but actually be untraceable.  Sometimes a user
  1001.   wishes to hide who he is sending mail to (in addition to the
  1002.   message itself). The anonymous item itself may be directed at
  1003.   individuals or groups.  A user may wish to access some
  1004.   service and hide all  signs of the association. 
  1005.   
  1006.   All of these uses are feasible on the internet but are currently
  1007.   tricky to carry out in practice, because of all the tracking
  1008.   mechanisms inherent to operating systems and network protocols. 
  1009.   Officials of the NSF and other government agencies may be opposed
  1010.   to any of these uses because of the potential for abuse. 
  1011.   Nevertheless, the inherent facelessness of large networks will
  1012.   always guarantee a certain element of anonymity.
  1013.  
  1014. _____
  1015. <3.2> Why is `anonymity' (un)important on the internet?
  1016.  
  1017.   Anonymity is another powerful tool that can be beneficial or
  1018.   problematic depending on its use.  Arguably absence of
  1019.   identification is important as the presence of it.  It may be the
  1020.   case that many strong benefits from electronic anonymity will be
  1021.   discovered that were unforeseen and unpredicted, because true
  1022.   anonymity has been historically very difficult to establish.
  1023.  
  1024.         One can use anonymity to make personal statements to a colleague
  1025.         that would sabotage a relationship if stated openly (such as
  1026.         employer/employee scenarios).  One can use it to pass information
  1027.         and evade any threat of direct retribution.  For example,
  1028.         `whistleblowers' reporting on government abuses (economic, social,
  1029.         or  political) can bring issues to light without fear of stigma or
  1030.         retaliation. Sensitive, personal, potentially damaging information
  1031.         is often posted to some USENET groups, a risky situation where
  1032.         anonymity allows conversations to be carried on completely
  1033.         independent of the identities of the participants.  Some police
  1034.         departments run phone services that allow anonymous reporting of
  1035.         crimes; such uses would be straightforward on the network.
  1036.         Anonymity can be extremely important and potentially lifesaving
  1037.         diagnoses and discussions carried out on medical or theurapeutic
  1038.         newsgroups. Unfortunately, extortion and harassment become more
  1039.         insidious with assurances of anonymity.
  1040.  
  1041. _____
  1042. <3.3> How can anonymity be protected on the internet?
  1043.  
  1044.   The chief means, as alluded to above, are masking identities in
  1045.   email and posting. However, anonymous accounts (public accounts as
  1046.   accessable and anonymous as e.g. public telephones) may be
  1047.   effective as well, but this use is generally not officially
  1048.   supported and even discouraged by some system adminstrators and NSF
  1049.   guidelines.  The nonuniformity in the requirements of obtaining
  1050.   accounts at different sites and institutions makes anonymous
  1051.   accounts generally difficult to obtain to the public at large.
  1052.  
  1053.   Many communications protocols are inherently detrimental to
  1054.   anonymity.  Virtually every protocol in existence currently
  1055.   contains information on both sender and receiver in every packet.
  1056.   New communications protocols will likely develop that guarantee
  1057.   much higher degrees of secure anonymous communication.
  1058.  
  1059. _____
  1060. <3.4> What is `anonymous mail'?
  1061.  
  1062.   One approach to `anonymizing' mail has been to set up an `anonymous
  1063.   server' that, when activated by email to its address, responds by
  1064.   allocating and supplying an `anonymous ID' that is unique to the
  1065.   person requesting it (based on his email address).  This will vary
  1066.   for the same person for different machine address email
  1067.   originations. To send anonymous mail, the user sends email directed
  1068.   to the server containing the final destination. The server
  1069.   `anonymizes' the message by stripping of identification information
  1070.   and forwards the message, which appears to originate from the
  1071.   anonymous server only from the corresponding anonymous user id. 
  1072.   This is the `interactive' use of anonymity or pseudonymity
  1073.   mentioned above.
  1074.  
  1075.   Another more `fringe' approach is to run a `cypherpunk' remailer
  1076.   from a regular user account (no root system privileges are
  1077.   required). These are currently being pioneered by  Eric Hughes and
  1078.   Hal Finney <hal@alumni.caltech.edu>. The operator runs a process on
  1079.   a machine that anonymizes mail sent to him with certain
  1080.   characteristics that distinguish it from his regular incoming mail
  1081.   (typically fields in the header). One has been implemented as a 
  1082.   PERL script running on UNIX.  Several of these are in existence
  1083.   currently but sites and software currently are highly unstable;
  1084.   they may be in operation outside of system administrator knowledge.
  1085.   The remailers don't generally support anonymous return addresses. 
  1086.   Mail that is incorrectly addressed is received by the operator. 
  1087.   Generally the user of the remailer has to disavow any
  1088.   responsibility for the messages forwarded through his system,
  1089.   although actually may be held liable regardless.
  1090.  
  1091.   These approaches have several serious disadvantages and weaknesses:
  1092.   
  1093.   - The anonymous server approach requires maintaining a mapping of
  1094.     anonymous ID's to real addresses that must be maintained
  1095.     indefinitely.  One alternative is to allow `deallocation' of
  1096.     aliases at the request of the user, but this has not been
  1097.     implemented yet.
  1098.  
  1099.   - Although an unlikely scenario, traffic to any of these sites could
  1100.     conceivably be monitored from the `outside', necessitating the
  1101.     use of cryptography for basic protection,.
  1102.  
  1103.   - Local administrators can shut them down either out of caprice or
  1104.     under pressure from local, network, or government agencies.
  1105.   
  1106.   - Unscrupulous providers of the services can monitor the traffic
  1107.     that goes through them.
  1108.  
  1109.   - Most remailers currently keep logs that may be inspected. 
  1110.  
  1111.   - The cypherpunk approach tends to be highly unstable because these
  1112.     operators are basically  network users who do not own the
  1113.     equipment and are accountable  to their own system
  1114.     administrators, who may be unaware of the use and unsympathetic
  1115.     to the philosophy of anonymity when the operation is discovered,
  1116.     regarding it as illicit use. 
  1117.  
  1118.   - In all cases, a high degree of trust is placed in the anonymous
  1119.     server operator by the user.
  1120.  
  1121.   Currently the most direct route to anonymity involves using SMTP
  1122.   protocols to submit a message directly to a server with arbitrary
  1123.   field information.  This practice, not uncommon to hackers, and the
  1124.   approach used by remailers, is generally viewed with hostility by
  1125.   most system administrators.  Information in the header routing data
  1126.   and logs of network port connection information may be retained
  1127.   that can be used to track the originating site.  In practice, this
  1128.   is generally infeasible and rarely carried out.  Some
  1129.   administrators on the network will contact local administrators to
  1130.   request a message be tracked and its writer admonished or punished
  1131.   more severely (such as revoking the account), all of this actually
  1132.   happening occasionally but infrequently.
  1133.  
  1134.   See the sections ``known anonymous mail and posting sites'' and 
  1135.   ``responsibilities associated with anonymity''.
  1136.  
  1137. _____
  1138. <3.5> What is `anonymous posting'?
  1139.  
  1140.   Anonymous servers have been established as well for anonymous Usenet
  1141.   posting with all the associated caveats above (monitored traffic,
  1142.   capricious or risky local circumstances, logging).  Make sure to
  1143.   test the system at least once by e.g. anonymous posting to
  1144.   misc.test (however some operators don't recommend this because many
  1145.   sites `autorespond' to test messages, possibly causing the
  1146.   anonymous server to allocate anonymous IDs for those machines). 
  1147.   See the ``responsibilties associated with anonymous posting''
  1148.   before proceeding.
  1149.  
  1150.   Another direct route involves using NNTP protocols to submit a
  1151.   message directly to a newserver with arbitrary field information.
  1152.   This practice, not uncommon to hackers, is also generally viewed
  1153.   with hostility by most system administrators, and similar
  1154.   consequences can ensue.
  1155.  
  1156.   See the sections ``known anonymous mail and posting sites'' and 
  1157.   ``responsibilities associated with anonymity''.
  1158.  
  1159. _____
  1160. <3.6> Why is anonymity (un)stable on the internet?
  1161.  
  1162.   As noted, many factors compromise the anonymity currently available
  1163.   to the general internet community, and these services should be
  1164.   used with great caution.  To summarize, the technology is in its
  1165.   infancy and current approaches are unrefined, unreliable, and not
  1166.   completely trustworthy.  No standards have been established and
  1167.   troubling situations of loss of anonymity and bugs in the software
  1168.   are prevalent.  Here are some encountered and potential bugs: 
  1169.   
  1170.   - One  anonymous remailer reallocated already allocated anonymous
  1171.     return addresses. 
  1172.   - Others passed signature information embedded in messages
  1173.     unaltered. 
  1174.   - Address resolution problems resulting in anonymized mail bounced
  1175.     to a remailer are common.
  1176.   - Forgeries to the anonymous server itself are a problem,  possibly
  1177.     allowing unauthorized users to potentially glean anon ID - email
  1178.     address  mappings in the alias file.  This can be remedied with
  1179.     the use of passwords.
  1180.   - Infinite mail loops are possible with chaining remailers.
  1181.   
  1182.   Source code is being distributed, tested, and refined for these
  1183.   systems, but standards are progressing slowly and weakly.  The
  1184.   field is not likely to improve considerably without  official
  1185.   endorsement and action by network agencies.  The whole idea is
  1186.   essentially still in its infancy and viewed with suspicion and
  1187.   distrust by many on the internet, seen as illegitimate or favorable
  1188.   to criminality.  The major objection to anonymity over regular
  1189.   internet use  is the perceived lack of accountability to system
  1190.   operators, i.e. invulnerability to account restrictions resulting
  1191.   from outside complaints.  System adminstrators at some sites have
  1192.   threatened to filter anonymous news postings generated by the
  1193.   prominent servers from their redistribution flows.  This may only
  1194.   have the effect of encouraging server operators to create less
  1195.   characteristically detectable headers.  Probably the least
  1196.   problematic approach, and the most traditional to Usenet, is for
  1197.   individual users to deal with anonymous mail however they prefer,
  1198.   e.g. ignoring it or filtering it with kill files.
  1199.   
  1200. _____
  1201. <3.7> What is the future of anonymity on the internet?
  1202.  
  1203.   New anonymous protocols effectively serve to significantly increase
  1204.   safeguards of anonymity.  For example, the same mechanism that
  1205.   routes email over multiple hosts, thereby threatening its privacy,
  1206.   can also be used to guarantee it. In a scheme called `chaining' an
  1207.   anonymous message is passed through multiple anonymous servers
  1208.   before reaching a destination.  In this way generally multiple
  1209.   links of the chain have to be `broken' for security to be
  1210.   compromised. Re-encryption at each link makes this scenario even
  1211.   more unlikely.  Even more significantly the anonymous remailers
  1212.   could be spread over the internet globally so that local weaknesses
  1213.   (such as corrupt governments or legal wiretapping within a nation)
  1214.   would be more unlikely to sacrifice overall security by message
  1215.   tracing. However, remailers run by corrupt operators are possible.
  1216.   
  1217.   The future of anonymous services on the internet is, at this time,
  1218.   highly uncertain and fraught with peril. While specific groups seem
  1219.   to benefit significantly from anonymous posting capabilities, many
  1220.   feel that unlimited newsgroup scope for anonymous posting is a
  1221.   disruptive and dangerous idea and detracts from discussions in
  1222.   `serious' groups.   The introduction of unlimited group anonymity
  1223.   may have fundamental repercussions on Usenet conventions and
  1224.   distribution mechanisms such as moderated and `alt' groups have had
  1225.   in the past. For example, as part of new group creation, the
  1226.   charter may specify whether `anonymous' posting is (un)welcome. 
  1227.  
  1228.   Nevertheless, the widespread introduction and use of anonymity may
  1229.   be inevitable. Based on traffic statistics, anonymous services are
  1230.   in huge demand. Pervasive and readily available anonymity could
  1231.   carry significant and unforeseen social consequences.  However, if
  1232.   its use is continued to be generally regarded as subversive it may
  1233.   be confined to the underground.  The ramifications of the
  1234.   widespread introduction of anonymity to Usenet are still largely
  1235.   unknown. It is unclear whether it will provoke signficant amounts
  1236.   of new traffic or, instead of expansion, cause a shift where a
  1237.   greater portion of existing traffic is anonymized.  Conceivably the
  1238.   services could play a role in influencing future mainstream social
  1239.   acceptance of Usenet.
  1240.  
  1241.  
  1242. * * *
  1243.  
  1244. This is Part 1 of the Privacy & Anonymity FAQ, obtained via anonymous
  1245.   FTP to pit-manager@mit.edu:/pub/usenet/news.answers/net-privacy/ or 
  1246.   newsgroups news.answers, sci.answers, alt.answers every 21 days.
  1247. Written by L. Detweiler <ld231782@longs.lance.colostate.edu>.
  1248. All rights reserved.
  1249.  
  1250.